方跃:无信任,AI寸步难行
2026年,人工智能完成从“生成内容”到“自主行动”的关键跃迁,智能体与物理AI开始大规模切入产业核心场景。技术迭代加速向前,信任与治理正成为AI价值兑现的核心变量——全球AI竞赛,已从算力与模型比拼,转向信任与治理的角力。无信任,不部署;无治理,不规模,正成为人工智能产业的全新铁律。
范式突变:从 “能说” 到 “能做”,AI 风险被彻底重新定义
2026 年,人工智能实现底层逻辑跃迁:从屏幕中应答交互的生成式 AI,升级为可跨系统执行、自主调度、物理操作、闭环完成任务的智能体 AI;从依托代码与数据的虚拟智能,延伸为可操控机械、进驻产线、服务患者的物理 AI。AI 不再是简单的辅助决策工具,而是深度参与生产、交易、运维与服务的新型生产要素。这并非简单的能力升级,其背后是一场风险重构。
麦肯锡 2026 年 AI 信任成熟度调查显示,全球企业 AI 信任平均成熟度仅 2.3 分(满分 4 分),仅约三成企业在战略、治理及智能体管控上达标。近三分之二企业将安全与风险列为智能体规模化部署的首要障碍,远超技术限制与监管不确定性。二者本质差异清晰可辨:
- 传统生成式 AI:风险核心是 “说错话”,即幻觉、错误信息、偏见与数据泄密;
- 智能体与物理 AI:风险核心是 “做错事”,即越权操作、决策失误、流程中断、资产损失乃至人身伤害。
凯捷研究院 2026 年 1—2 月对全球 15 个行业 1678 名高管的调研显示,67% 受访高管认为物理 AI 将重塑行业规则;但人形机器人落地仍存显著顾虑:72% 担忧技术与可靠性未验证,54% 忌惮碰撞、故障等安全风险,62% 认为公众接受度不足将制约推广。
当 AI 可自主签约、支付、排产、操控机器人,产业核心命题从 “AI 强不强”,转向 “AI 可不可信、敢不敢用、出责谁来担”。企业从生成式 AI 试点迈向智能体 AI 规模化部署,信任与负责任 AI 能力成为价值释放的基础。
当能力不再是瓶颈,信任才是天花板;技术不再是障碍,治理才是入场券。2026 年,全球产业达成共识:强大是基础,可控是门槛;创新是目标,治理是前提。信任不是合规成本,而是规模化先决条件;治理不是事后补丁,而是系统架构的底层基石。
信任赤字:卡住 AI 规模落地的七道鸿沟
理念清晰,落地却步履维艰。综合麦肯锡、凯捷、德勤、罗兰贝格 2026 年研究报告,当前企业 AI 信任与治理存在七大致命鸿沟,直接导致 AI 难以从试点走向量产、从概念走向实用。
- 战略鸿沟:视 AI 为工具,信任未入顶层设计。多数企业将 AI 定位为降本增效工具,把信任与治理甩给法务、合规或 IT 部门。高层参与不足、资源投入匮乏、价值目标模糊,导致信任建设边缘化、AI 与业务脱节。麦肯锡数据显示,负责任 AI 投入超 2500 万美元的企业,成熟度与价值转化率遥遥领先,但90% 企业仍将信任投入视为可压缩成本。
- 治理鸿沟:责任主体缺失,智能体 “裸奔” 运行。仅约 30% 企业建立适配智能体的治理架构,明确 AI 信任责任人的更是寥寥。麦肯锡指出,设立可信 AI 责任主体的企业,AI 成熟度高出同行 44%。现实却反差强烈:大量 “数字员工”——AI 智能体在核心系统无准入、无权限、无考核、无问责自由运行,如同无人监管的临时工,暗藏巨大操作与合规风险。
- 风险鸿沟:意识强、行动弱,知行严重脱节。企业普遍能罗列 AI 风险,却普遍缺失防控措施,隐私保护、知识产权、算法偏见、网络安全等领域,风险认知率远高于实际防控覆盖率。更严峻的是,AI 事故发生率稳定在 8% 左右,但近 60% 经历过 AI 事件的企业,对自身应急响应评价仅为一般或负面。人人懂风险,处处不设防,成为行业常态。
- 能力鸿沟:知其然,不知其所以然。近60% 企业将知识与培训缺口列为可信 AI 落地的首要障碍。团队普遍缺乏实操能力:不会设计安全护栏、不会评估风险、不会监测行为、不会处置异常。信任绝非口号,而是可落地的工具、流程与技能,缺乏体系化支撑,合规目标终将悬空。
- 技术鸿沟:治理 “外挂式”,而非原生嵌入。传统事后审核、人工抽查、定期审计,无法适配 7×24 小时自主运行的智能体。IBM 与贝恩共同强调,智能体必须从架构设计之初嵌入治理能力,实现可解释、可打断、可回滚、可审计、可熔断。无原生治理的智能体,本质是高风险系统。
- 人机鸿沟:协同失衡,信任链条破裂。企业陷入两极分化:要么追求极致自动化,引发员工抵触、隐性知识流失;要么完全不信任 AI,事事人工兜底,效率归零。认知与协同鸿沟,直接卡死规模化落地。
- 价值鸿沟:视治理为成本,而非增长引擎。大量企业将 AI 治理视为约束、负担与合规枷锁,而非业务放大器。但麦肯锡 2026 年核心结论反复验证:AI 信任成熟度越高,规模化速度越快、风险越低、价值兑现越确定。
所有鸿沟最终指向同一结局:试点亮眼、量产失效;投入巨大、财报无声。
信任破局:六维可信 AI 框架
穿越 AI 周期的企业,未必拥有最强模型,却一定具备最稳信任、最实治理。综合麦肯锡、凯捷、德勤、高盛、摩根大通实践,一套可复制、可落地、可量化的可信 AI 治理框架已然成型。
- 战略层:信任优先,治理前置。确立三大底线:无信任,不部署;治理是顶层战略,而非附属职能;将 AI 信任成熟度纳入高管 KPI。由 CEO 牵头成立跨职能治理委员会,统筹业务、技术、合规、风控与伦理。
- 组织层:明确权责,像管人一样管智能体。核心举措:设立首席 AI 治理官(CAIGO)或可信 AI 负责人;每个 AI 智能体必须绑定人类直属负责人;建立智能体全生命周期管理:准入 — 授权 — 监测 — 升级 — 退出 — 审计。组织到位,信任才有落地根基。
- 风险层:全域识别,主动防控。从被动救火转向主动设防:构建全维度风险清单:准确性、安全、隐私、知识产权、偏见、物理伤害;医疗、金融、工业、交通等高风险场景实施分级强管控;实时监测、自动拦截、应急响应、闭环整改。关键是弥合知行鸿沟:每识别一类风险,必落地一项管控措施。
- 技术层:原生护栏,具备 “五可” 能力。可信 AI 必须具备五项硬核能力:可解释:决策依据可追溯、可说明;可打断:人类可随时接管、暂停、终止;可回滚:错误操作可撤销、可恢复;可审计:全流程留痕、不可篡改;可熔断:风险触发立即停止,防止扩散。物理 AI 与机器人需额外保障:安全系统独立于 AI 层,通过急停、限位、力矩保护、地理围栏实现确定性兜底。
- 流程层:全生命周期闭环,拒绝 “先上线后补票”。执行三段式铁律:事前:伦理审查、风险评估、安全测试、合规备案;事中:实时审计、权限校验、异常拦截;事后:复盘迭代、优化护栏、责任认定。坚持 5%—15% 小流量试点,先验证可信,再扩大规模。
- 人与文化层:透明协同,守住人性底线。对内透明沟通,明确 “AI 赋能而非替代”,消除团队抵触;对外主动标识 AI 生成内容,杜绝算法歧视与深度伪造滥用。坚守终极底线:核心决策、伦理判断、信任关系、异常处置,必须由人类最终掌控。
物理 AI:实体世界的信任,零容错考验
未来几年,物理 AI 将迎来规模化爆发,AI 从数字世界迈入物理世界,直接操控机器人、机械臂、车辆与工业设备。
凯捷数据显示,79% 企业已布局物理 AI,27% 进入部署扩张阶段,制造、物流、能源、医疗、建筑成为核心赛道。物理 AI 将信任与治理推向零容错考场:数字错误可撤回,物理错误会伤人、毁物、致灾。
波士顿动力、富士康、FedEx 的实践确立三大准则:
- 安全必须独立于 AI:模型持续进化,安全恒定可控;
- 环境与人机协同适配:从 “为人设计” 升级为 “为人机协同设计”;
- 机群统一治理:多机器人协同需平台级统一权限、监控、调度与应急。
物理 AI 的终极答案清晰有力:智能可以自主,安全必须强制;能力可进化,底线无弹性。
全球监管:信任从可选项,变为强制性底线
中国正加快构建 “伦理审查 + 风险分级 + 全生命周期问责” 的人工智能治理体系,强化高风险场景监管与主体责任。全球监管口径高度趋同:
- 高风险强监管:医疗、工业、金融、交通等高风险 AI 必须可解释、可审计、可干预;
- 责任归企业:企业对 AI 行为承担最终法律责任,不得以 “自主学习” 免责;
- 人类掌控关键决策;
- 全程可追溯:操作留痕,不可篡改。
中国在人形机器人与物理 AI 领域率先推出全国标准体系,覆盖全产业链与生命周期,将安全与伦理置于核心。
明确趋势已然形成:未来 AI 的入场券,不是效果,而是信任资质;竞争的核心,不是速度,而是可控。
AI下一站:信任即增长,治理即壁垒
站在 2026 年,AI 下一程路径清晰:从技术狂飙,转向可信进化;从工具赋能,转向组织再造;从效率优先,转向责任制衡。
未来三年,三大趋势将重塑产业格局:
第一,AI 竞争:从模型战走向信任战。上半场比拼参数、算力、效果;下半场比拼可控、可信、安全、可扩展。医疗、金融、政务、制造等高价值领域,信任将成为最高行业壁垒。
第二,治理从成本中心转向价值中心。领先企业已验证:治理投入直接转化为更快规模化、更低风险、更高客户信任与更强品牌溢价。信任将成为可量化、可审计、可披露的核心资产。
第三,组织走向人机协同终极形态。科层架构压缩,中层转型为人机协同调度者;人才结构呈松树型,中层成为价值创造核心。组织的信任能力,直接决定 AI 落地深度。
所有趋势汇成终极判断:AI 的未来,不是无人化,而是可信人机协同。人类负责决策、伦理、异常、问责与价值判断;AI 负责执行、重复、检索、计算与优化。我们相信:人机协同是 AI 信任最可靠的长效机制。
信任即底线,治理即未来
智能体让 AI 参与决策、执行任务,物理 AI 让 AI 融入现实、落地场景,而信任与治理,最终决定 AI 能走多远、行多稳、创造多少真实价值。
无信任,不部署;无治理,不规模;不可控,无未来。
当下所有企业都面临全新命题:必须跳出模型与算力的低维内卷,转向信任与治理的高维赛道;告别跟风式零散试点,走向业务价值的深度深耕;摆脱单纯技术驱动,迈向体系化能力制胜。
未来真正的赢家,从来不是追逐技术噱头、盲目加大投入的跟风者,而是把治理做扎实、把信任做牢固、把人机协同做到极致的长期主义者。唯有让 AI 在可信、可控、可治理的框架内稳健运行,技术爆发力才能转化为产业持久增长力,人工智能也才能真正成为赋能企业、惠及个体、服务社会的新质生产力。
来源 | 财新
作者系中欧国际工商学院亿纬锂能经济学与决策科学教席教授、中欧AI与管理创新研究中心主任方跃。
